信号检测与估计(1) | 您所在的位置:网站首页 › 探测概率 虚警概率 英文 › 信号检测与估计(1) |
思路一:根据平均风险的第一个公式 我们已知 p ( x ) > 0 p(\mathbf x)>0 p(x)>0和 r ( x ) > 0 r(\mathbf x)>0 r(x)>0,根据公式 R = ∫ x r ( x ) p ( x ) d x R=\int_{\bf x}r(\mathbf x)p(\mathbf x)d\mathbf x R=∫xr(x)p(x)dx,我们需要最小化 p ( x ) p(\mathbf x) p(x)。而对于双择检验来说,如果已经接收到信号,则意味着我们有两种判定,这样的话,也就只有两种平均风险 r ( x ) = r ( D 1 ∣ x ) r(\mathbf x)=r(D_1|\mathbf x) r(x)=r(D1∣x)或者 r ( x ) = r ( D 0 ∣ x ) r(\mathbf x)=r(D_0|\mathbf x) r(x)=r(D0∣x)。 所以我们可以做这样的判决: r ( D 1 ∣ x ) > D 0 ≤ D 1 r ( D 0 ∣ x ) r(D_1|\mathbf x)^{\overset{D_1}{\leq}}_{\underset{D_0}{>}}r(D_0|\mathbf x) r(D1∣x)D0>≤D1r(D0∣x) 也就是 C 10 P ( H 0 ∣ x ) + C 11 P ( H 1 ∣ x ) > D 0 ≤ D 1 C 00 P ( H 0 ∣ x ) + C 01 P ( H 1 ∣ x ) C_{10}P(H_0|\mathbf x)+C_{11}P(H_1|\mathbf x)^{\overset{D_1}{\leq}}_{\underset{D_0}{>}}C_{00}P(H_0|\mathbf x)+C_{01}P(H_1|\bf x) C10P(H0∣x)+C11P(H1∣x)D0>≤D1C00P(H0∣x)+C01P(H1∣x) 美观下公式就有: P ( H 1 ∣ x ) P ( H 0 ∣ x ) > D 0 ≤ D 1 C 10 − C 00 C 01 − C 11 \frac{P(H_1|\mathbf x)}{P(H_0|\mathbf x)}^{\overset{D_1}{\leq}}_{\underset{D_0}{>}}\frac{C_{10}-C_{00}}{C_{01}-C_{11}} P(H0∣x)P(H1∣x)D0>≤D1C01−C11C10−C00 双不等号左边这玩意叫做似然比门限。 但是这玩意需要计算后验概率( P ( H i ∣ x ) P(H_i|\mathbf x) P(Hi∣x)),我们还要算一遍,不经济。于是我们利用贝叶斯公式: P ( H i ∣ x ) = P ( x ∣ H i ) P ( H i ) P ( x ) P(H_i|\mathbf x)=\frac{P(\mathbf x|H_i)P(H_i)}{P(\mathbf x)} P(Hi∣x)=P(x)P(x∣Hi)P(Hi)我们就可以再次化简: Λ ( x ) = △ P ( x ∣ H 1 ) P ( x ∣ H 0 ) > D 0 ≤ D 1 P ( H 0 ) ( C 10 − C 00 ) P ( H 1 ) ( C 01 − C 11 ) = △ Λ 0 \Lambda(\mathbf x)\overset{\triangle}{=}\frac{P(\mathbf x|H_1)}{P(\mathbf x|H_0)}^{\overset{D_1}{\leq}}_{\underset{D_0}{>}}\frac{P(H_0)(C_{10}-C_{00})}{P(H_1)(C_{01}-C_{11})}\overset{\triangle}{=}\Lambda_0 Λ(x)=△P(x∣H0)P(x∣H1)D0>≤D1P(H1)(C01−C11)P(H0)(C10−C00)=△Λ0 Λ ( x ) \Lambda(\mathbf x) Λ(x)j叫做似然比。 思路二:根据平均风险的第二个公式 该公式为
R
=
r
(
H
0
)
P
(
H
0
)
+
r
(
H
1
)
P
(
H
1
)
R=r(H_0)P(H_0)+r(H_1)P(H_1)
R=r(H0)P(H0)+r(H1)P(H1),我们已知:
{
r
(
H
0
)
=
C
00
P
(
D
0
∣
H
0
)
+
C
10
P
(
D
1
∣
H
0
)
r
(
H
1
)
=
C
01
P
(
D
0
∣
H
1
)
+
C
11
P
(
D
1
∣
H
1
)
P
(
D
0
∣
H
0
)
=
1
−
P
(
D
1
∣
H
0
)
P
(
D
0
∣
H
1
)
=
1
−
P
(
D
1
∣
H
1
)
\begin{cases} r(H_0)=C_{00}P(D_0|H_0)+C_{10}P(D_1|H_0)\\ r(H_1)=C_{01}P(D_0|H_1)+C_{11}P(D_1|H_1)\\ P(D_0|H_0)=1-P(D_1|H_0)\\ P(D_0|H_1)=1-P(D_1|H_1) \end{cases}
⎩⎪⎪⎪⎨⎪⎪⎪⎧r(H0)=C00P(D0∣H0)+C10P(D1∣H0)r(H1)=C01P(D0∣H1)+C11P(D1∣H1)P(D0∣H0)=1−P(D1∣H0)P(D0∣H1)=1−P(D1∣H1) 化简可得一个巨长的公式:
R
=
P
(
H
0
)
C
00
+
P
(
H
1
)
C
01
+
P
(
H
0
)
(
C
10
−
C
00
)
P
(
D
1
∣
H
0
)
−
P
(
H
1
)
(
C
01
−
C
11
)
P
(
D
1
∣
H
1
)
R=P(H_0)C_{00}+P(H_1)C_{01}+P(H_0)(C_{10}-C_{00})P(D_1|H_0)-P(H_1)(C_{01}-C_{11})P(D_1|H_1)
R=P(H0)C00+P(H1)C01+P(H0)(C10−C00)P(D1∣H0)−P(H1)(C01−C11)P(D1∣H1) 我们寻求一种对样本空间的划分,使得
R
R
R最小,
R
m
i
n
=
R
B
R_{min}=R_B
Rmin=RB,这个判决准则即成为贝叶斯准则(Bayes criterion) 在先验概率已知的情况下,巨长公式的前两项为常数,我们现在讨论后两项。 诶!我们给出下面两个公式
P
(
D
1
∣
H
0
)
=
∫
R
1
p
(
x
∣
H
0
)
d
x
P
(
D
1
∣
H
1
)
=
∫
R
1
p
(
x
∣
H
1
)
d
x
P(D_1|H_0)=\int_{R_1}p(\mathbf x|H_0)d_\mathbf x\\ P(D_1|H_1)=\int_{R_1}p(\mathbf x|H_1)d_\mathbf x
P(D1∣H0)=∫R1p(x∣H0)dxP(D1∣H1)=∫R1p(x∣H1)dx 第一眼看到会一脸懵逼。 |
CopyRight 2018-2019 实验室设备网 版权所有 |